Pourquoi les fausses images générées par intelligence artificielle ont moins circulé


Amnesty International a choisi, pour protéger les manifestants, d’illustrer les violences policières en Colombie par des photos générées par intelligence artificielle.

Le 19 mars, en marge de la quatrième journée de manifestations contre la réforme des retraites, des photographies factices d’Emmanuel Macron dans les rues de Paris saccagées circulent sur Internet. Le 29 mars, au lendemain d’une nouvelle journée de mobilisation marquée par des affrontements avec les forces de l’ordre, l’image toute aussi artificielle d’un nonagénaire au visage tuméfié par les coups devient virale à son tour. Mais malgré une mobilisation inédite en vingt ans et des scènes de chaos urbain, aucune image générée par une intelligence artificielle (IA) n’est encore apparue sur les réseaux sociaux à l’occasion du 1er-Mai.

Faut-il y voir l’indice d’une accalmie précoce dans l’explosion des faux visuels ? Depuis sa démocratisation fulgurante en mars 2023, avec la mise en ligne de la nouvelle version du logiciel Midjourney, l’IA génératrice d’images a fait craindre l’entrée dans une nouvelle ère de désinformation visuelle. David Holz, le président de Midjourney, qui a conquis 14 millions d’utilisateurs en un mois, a admis auprès du magazine The Verge que la modération de la plate-forme était « difficile ».

Le virage du payant

Mais son usage a considérablement changé en quelques semaines seulement. La rupture se situe le 6 avril, lorsque le logiciel le plus populaire de génération d’image par IA est passé à un modèle payant. L’introduction d’un abonnement plancher d’une dizaine d’euros par mois a considérablement réorienté son usage vers un public professionnel. L’examen des requêtes – une grande partie est publique – permet de constater que le logiciel est surtout sollicité pour concevoir rapidement et à bas coût des images conceptuelles pour des films d’animation, des publicités ou encore des jeux vidéo, davantage que pour imiter des photos de presse.

En tant que potentiel outil de désinformation, Midjourney paie également son succès : les innombrables faux qui ont circulé au printemps ont suscité une vague d’articles de presse égrenant les indices pour les reconnaître. Les points faibles de l’IA sont désormais plutôt bien connus, comme sa difficulté à reproduire des mains réalistes, des textes cohérents ou encore du mobilier crédible. Si bien que pour les internautes facétieux, il est déjà un peu plus difficile de tromper aujourd’hui qu’il y a quelques semaines encore.

Accessoirement, il existe une esthétique Midjourney, reconnaissable à ses images toujours parfaitement composées et savamment éclairées. Biberonnée aux photos de presse et aux plans cinématographiques, sur lesquels elle « entraîne » ses modèles, l’IA excelle à imiter le travail d’un professionnel de l’image, mais ne sait guère singer les fautes de cadrage, les bougés flous et les lueurs blafardes d’une réalisation plus amateur. Or, dans le monde bien particulier de la désinformation, la force d’une image repose souvent sur son caractère artisanal – à l’instar des interviews en caméra cachée du média antivax Project Veritas, et leur esthétique de photo volée, comme si la faute de cadrage était une preuve de vérité. A ce stade, Midjourney est incapable de créer de telles images.

Enfin, si les logiciels de génération d’images ont rapidement rencontré leur public, ils sont paradoxalement passés relativement inaperçus auprès des acteurs habituels de la désinformation. Non sans ironie, on a même vu un influenceur complotiste refuser de croire à l’existence d’images générées par IA. A la marge, quelques-uns s’amusent avec leurs possibilités, mais s’en tiennent à un usage cathartique, en mettant en scène des personnalités honnies dans des postures dégradantes – par exemple en mélangeant la tête d’un journaliste à celle d’un cochon –, mais sans que ces images cherchent à tromper qui que ce soit.

Le risque de fausses photos plus abouties

Cela ne signifie pas pour autant que toute menace pour le débat public soit définitivement écartée. L’essor de Midjourney et de logiciels analogues, comme Stable Diffusion, plus puissant encore, ont déjà considérablement modifié notre rapport aux images. A la mi-avril, l’iconique cliché des forces de l’ordre bloquant l’accès au Conseil constitutionnel, immortalisé par le photographe de l’agence Reuters Stéphane Mahé, a trompé de nombreux internautes, qui l’ont pris à tort pour un faux.

Ensuite, la professionnalisation de leur utilisation s’accompagne d’une rapide montée en expertise. Les images conçues avec un abonnement payant sont plus travaillées, plus abouties, et souvent exemptes des défauts grossiers qui signent une photo artificielle. Ainsi, si les fausses images d’actualité se sont momentanément raréfiées, les prochaines risquent d’être plus réussies, moins détectables, et donc bien plus trompeuses.

Enfin, le recours à ces faux pose des questions bien plus larges que celle de leur simple usage par des désinformateurs professionnels. Le 28 avril, dans une série de tweets à l’occasion du deuxième anniversaire de violences policières en Colombie, le compte norvégien d’Amnesty International a choisi d’illustrer ses propos par des images générées par intelligence artificielle. Une manière de « ne pas mettre en danger » de vrais manifestants, s’est justifiée l’ONG auprès du site américain Gizmodo, avant de finalement supprimer ses publications. De nombreux observateurs ont estimé que cette initiative décrédibilisait le combat d’Amnesty International, alors que les violences policières sont très largement documentées, et que les images authentiques ne manquent pas.

Lire aussi : Article réservé à nos abonnés L’IA bouscule et inquiète le monde de l’image


Source
Catégorie article Politique

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.